Facebook: Les règles secrètes de modération dévoilées

Facebook: Les règles secrètes de modération dévoilées



Cela ne vous a pas échappé, le monde de Facebook n’est pas tout à fait le monde réel. Ainsi, dans cet espace juridique d’une autre dimension, Facebook a ses propres lois et répond à sa propre logique lorsqu’il s’agit de se justifier dans la modération de tel ou tel contenu. Que l’on ne connaissait pas jusqu’alors. C’est maintenant le cas grâce au Guardian. Le journal anglais a mené l’enquête tel un Sherlock Holmes 2.0.



La modération du contenu Facebook pose question depuis le début de sa création. Mais les vagues d’attentats dans les pays occidentaux, les slut shaming, suicides et meurtresen live, «  pièges à clics »,  revenge porn et autres fake news ont rendu plus pressant pour le géant américain, la censure partielle sur sa plate-forme.



Pour faire face à ce nouveau défi, Facebook a d’ailleurs récemment embauché plus de 3000 modérateurs.



Menaces de mort



Le Guardian a dévoilé ce dimanche, grâce à Facebook, les ressorts de la machine à modérer, la « charte secrète ». Parmi les centaines de documents édités par Facebook qu’a pu consulter le quotidien anglais, on trouve de nombreuses références aux menaces de mort et aux menaces en général. Et toutes ne sont pas traitées de la même manière. Par exemple, une menace de tuer le président américain sera supprimée, mais un contenu similaire contre une personne lambda ne sera jugé crédible que si des commentaires laissent penser à une mise en œuvre de la menace. Il s’agit là d’un des cas les plus ambigus : les modérateurs doivent distinguer la crédibilité d’une menace en fonction de son ton.



Appel à la haine



Pas étonnant que ces règles soient habituellement tues car elles peuvent légitimement soulever des interrogations. Car la crédibilité d’une menace est jaugée par rapport au choix de la victime. « Frapper un roux », « allons tabasser les gros » ou « comment tuer une femme » est toléré par Facebook car la victime n’est pas d’intérêt public. A l’inverse de « devenons le cauchemar des sionistes » par exemple. Facebook aura ainsi tendance à prendre au sérieux les appels au meurtre concernant des minorités ethniques ou des personnalités publiques car « vulnérables», mais pas le vulgum pecus. Dans les documents révélés par le Guardian, Facebook estime que les « gens utilisent un langage violent pour exprimer en ligne leur frustration ». Et donc ne doivent pas tout le temps être pris au sérieux lorsqu’ils utilisent le réseau social, tel un « exutoire ».



Vidéos de morts violentes et maltraitance d’enfants et d’animaux



Pour ce qui est de la diffusion, souvent en direct, de morts violentes ou de suicides, le réseau social créé par Mark Zuckerberg prend une mesure présentée comme « pragmatique ». Les modérateurs vont rendre le contenu « sensible » sans le supprimer. La raison invoquée ? « Sensibiliser l’entourage de la personne à un malaise psychologique » et « ne pas vouloir censurer ou punir des personnes en détresse ». C’est cette règle, qui permet donc de laisser la vidéo en ligne, qui avait sauvé une jeune fille de 15 ans qui tentait de se suicider en direct. Une amie la regardait et avait alors prévenu la police. La même logique est suivie pour les maltraitances d’enfants notamment. Laisser le contenu en ligne permettrait à ce que « l’enfant [puisse] être identifié et sauvé ».



Nudité, pornographie et revenge porn



Les consignes des modérateurs de Facebook concernant la nudité sont très variables. Par exemple, une œuvre d’art représentant la nudité est autorisée si elle est « fait main ». Mais tout autre représentation d’un corps nu sera retirée, avec une exception pour les photos à la portée historique comme les images des camps de concentration par exemple. Pour le revenge porn, il faut que « l’image soit produite dans l’intimité, que la personne soit nue ou sexuellement active et enfin que son consentement puisse être mis en doute ».



Pour faire le test, le site 01net.com a publié un quizz sur le sujet, ici.